iT邦幫忙

第 12 屆 iThome 鐵人賽

DAY 22
0

昨天介紹過VCDNet今天來說一下關於ImageNet舉辦LlSVRC所產生的CNN模型。

  1. 2012年冠軍 AlexNet 錯誤率比前一年減少超過10%,且首度引用 Dropout 層。
  2. 2014年亞軍 VGGNet 承襲 AlexNet 思路,建立更多層的模型,達到 16及19 個隱藏層。
  3. 2014年圖像分類冠軍 GoogNet & Inception 同時使用多種不同大小的Kernel,讓系統決定最佳的Kernel。Inception 引入 Batch Normalization 等觀念
  4. 2015年冠軍 ResNets 發現 20 層以上的模型前面幾層會發生優化退化(degradation)的狀況,因而提出以『殘差』(Residual)解決問題

昨天說錯了嗎?

昨天我們講VCG的時候是說深度學習越深越好,但如果一直無限的增加層數,結果是不是比較好呢,直到我看到這個論文,才發現夷!!!怎麼56層網路比20層的還差,不是越深越好嗎?
https://ithelp.ithome.com.tw/upload/images/20201002/20130246lzAelyVWfT.png
參考https://arxiv.org/pdf/1512.03385.pdf

甚麼是ResNets

當今天層數越疊越深,若不做任何的處理機制,準確度其實是會越來越糟糕!因為當疊層數疊超過一個層數,反向傳遞的梯度要越來越多次才能到最前面的參數,所以把層數加深就很有可能造成梯度消失,就會無法有效的更新前面網路層的參數。因此Deep Residual Network就出現了,也就是ResNet

深度殘差網路(Deep Residual Network,簡稱DRN)

https://ithelp.ithome.com.tw/upload/images/20201002/20130246ebeKZ4ABFM.png
DRN就是使用反向傳遞,當學習到比較飽和的準確度的時候,我們將x輸入近似於H(x),這樣就能保持後面的層數不會引響準確度下降,輸出的部分加了一個X,目標就是要將F(x)=H(x)-x讓F(x)趨近於0,這樣即使網路加深也不會引響準確度。
https://medium.com/%E9%9B%9E%E9%9B%9E%E8%88%87%E5%85%94%E5%85%94%E7%9A%84%E5%B7%A5%E7%A8%8B%E4%B8%96%E7%95%8C/%E6%A9%9F%E5%99%A8%E5%AD%B8%E7%BF%92-ml-note-cnn%E6%BC%94%E5%8C%96%E5%8F%B2-alexnet-vgg-inception-resnet-keras-coding-668f74879306
https://ithelp.ithome.com.tw/articles/10223034


上一篇
CNN-VCG
下一篇
RNN介紹
系列文
Tensorflow2.030
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言